Apple publie sa famille de modèles d’IA générative de façon très ouverte
Le 22 juillet à 10h00
1 min
IA et algorithmes
IA
Les chercheurs d'Apple ont mis en ligne sur la plateforme Hugging Face leur famille de modèles de langage DCLM (DataComp for Language Models).
Le modèle phare est le DCLM-7B, qui « rivalise avec Mistral/LLAMA3/Gemma/Qwen2 sur la plupart des benchmarks », selon Vaishaal Shankar, chercheur chez Apple.
Mais, de façon surprenante, l'entreprise à la pomme publie ses modèles avec un rare degré d'ouverture : le modèle est en licence « Apple Sample Code License » (voir l'avis de l'Open source initiative concernant cette licence), le framework de création et d'entrainement de modèle DataComp-LM (DCLM) est publié sur GitHub sous licence MIT, et les données de pré-entrainement et les poids sont disponibles sur Hugging Face.
Enfin, les chercheurs d'Apple ont mis en ligne un article sur la plateforme de prépublication scientifique arXiv. On peut d'ailleurs voir que l'équipe de Vaishaal Shankar n'a pas travaillé de manière isolée. Des chercheurs de plusieurs universités (Harvard, Université de Washington, UCLA, Stanford... ) ainsi que de startups comme DatologyAI, Contextual AI et Bespokelabs.AI ont cosigné l'article.
Le 22 juillet à 10h00
Commentaires (3)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 22/07/2024 à 10h25
Le 22/07/2024 à 17h01
Le 22/07/2024 à 17h10
ils ne doivent pas se sentir très en position de force sur ce sujet là ici , ils font profil bas et essayent sûrement de récupérer de "l'aide" à droite et gauche en attendant...